Windows 98 Segunda Edición (SE) es una
actualización de Windows 98, fue publicada el 5 de
mayo de 1999. Nació como respueste a un
juicio antimonopolio que perdió Microsoft por hacer
que Internet Explorer fuera parte de Windows
98 (…si lo sé, aún viene este navegador
de serie con los SO de Microsoft…cosas de las leyes y de
tener pasta de sobra como para pagar las multas que se le
impongan…).
Incluye correcciones para muchos problemas menores, un
soporte USB mejorado, y el reemplazo de Internet Explorer
4.0 con el considerablemente más rápido
Internet Explorer 5. También se incluyó la
Conexión Compartida a Internet, además de otras
muchas mejoras que hacían que este fuera un producto mucho
más estable.
Windows NT
Windows New Technology, más conocido como
Windows NT fue lanzado en Septiembre de 1993. Fue
diseñado para ser un poderoso sistema operativo
multiusuario, basado en lenguaje de alto nivel, independiente del
procesador, con rasgos comparables con Unix.
Su intención fue la de complementar las versiones
de consumidor de las Windows que estaban basadas en el
MS-DOS. NT era la primera versión totalmente en 32 bits de
Windows, mientras que sus colegas orientados al consumidor,
Windows 3.1x y Windows 9x, eran de 16-bit/32-bit híbridos.
Windows 2000, Windows XP, Windows Server 2003, Windows Vista,
Windows Server 2008, Windows Home Server y Windows 7
están basados sobre el sistema de Windows NT,
aunque ellos no estén marcados como Windows
NT.
Windows ME
La edición del Milenio (Milenium Edition)
es una actualización de Windows 98 que toma algunas
características de Windows 2000. Uno de los peores
sistemas operativos desarrollados por Microsoft. Tenía una
lista bastante amplia de incompatibilidades de Hardware que
hacía que dicho sistema operativo no pudiera correr en
todos los equipos.
Personalmente tuve la desgracia de
instalarlo….resultado, dos fallos graves y el disco duro
borrado, con toda la perdida de información que eso
implica
Windows 2000 (Windows NT 5.0)
Windows 2000, (conocido
también como Win2K) sistema operativo de Microsoft
que se puso en circulación el 17 de febrero de 2000 con un
cambio de nomenclatura para su sistema NT. Así, Windows NT
5.0 se pasa a llamar Windows 2000.
Este sistema operativo introdujo algunas
modificaciones respecto a sus predecesores, como el sistema de
archivos NTFS 5, la capacidad de cifrar y comprimir
archivos. Introdujo también las mejoras en el sistema de
componentes COM, introduciendo COM+ que unificó en un solo
paquete de servicios anexados, la tecnología COM y MTS de
Windows NT4, con nuevas ventajas.
Este sistema fue el primer intento de
Microsoft por juntar su versión MS-DOS
(Windows 95, 98, ME) y la NT (3.51, 4) aunque la
fusión definitiva llegaría con Windows
XP.
Esta versión ha tenido mucho
éxito en empresas, que todavía hoy la usan, pero
entre los usuarios de hogares no tuvo mucho
éxito.
Windows XP
Windows XP (cuyo nombre en clave inicial fue
Whistler) y cuyas letras "XP" provienen de la
palabra "eXPeriencia", fue lanzado el 25 de octubre de 2001. Es
uno de los SO más utilizados actualmente, por lo menos a
nivel de los hogares, ya que se estima que en el mundo hay 400
millones de copias de este SO funcionando.
La principal característica de este nuevo Windows
con respecto a Windows 98, es su nueva apariencia. El mayor
cambio en WXP es cosmético, algo que provoca que necesite
mayores requisitos de sistema necesita.
Windows Vista
Y pasamos de un SO querido por muchos usuarios
Windows XP a un SO odiado por casi todo el mundo,
Windows Vista. Durante su desarrollo fue conocido como
Windows Longhorn. Fue lanzado el 30 de noviembre de
2006.
Sus novedades más destacadas son las de agregar
efectos visuales asombrosos y varias opciones innovadoras como
mejor control en las cuentas de usuarios, firewall
bi-direccional, mayor seguridad, anti spyware, Windows Search, la
barra lateral de herramientas, y otras muchas cosas….a
cambio de todo esto conseguirás que muchos de tus
periféricos tengan problemas…que apenas puedas
hacer nada sin que te salgan alertas
constastes…
Windows Home Server
Windows Home Server es un nuevo sistema operativo
para uso doméstico producido por Microsoft. Anunciado el
07 de enero de 2007, en la "Consumer Electronics Show" por Bill
Gates, Windows Home Server intenta ser una solución para
hogares con múltiples PC interconectados en la cual puedan
compartir archivos, hacer copias de seguridad automatizadas, y
acceso remoto. Está basado en Windows Server 2003
SP2.
Windows Server 2008
Windows Server 2008 es el nombre del sistema
operativo para servidores de Microsoft. Es el sucesor de
Windows Server 2003 distribuido al público casi
cinco años antes. Al igual que Windows Vista, Windows
Server 2008 se basa en el núcleo Windows NT
6.0.
Windows 7
El último y más nuevo sistema operativo de
Microsoft es Winfdows 7 o Windows Seven, que
actualmente se encuentra en fase de desarrollo o beta y cuyo
año de salida será el 2010. Se esperan numerosas
mejoras en cuanto a interfaz gráfica, unos mejores tiempos
de arranque y la eliminación o desactivación del
control por parte del usuario (supuestamente no saldrán
tantas alertas de seguridad).
Como aún no ha salido oficialmente no nos
meteremos mucho con él….aunque hay ciertos puntos
que suenan a cachondeo (como el "rumor" de que sólo
podría ejecutar 3 aplicaciones de forma simultanea y que
para ejecutar más abría que pasar por caja…)
.
Buenos esto es todo, si habéis
llegado hasta aquí felicidades, ya conocéis algo
más de la historia de los SO de
Microsoft.
Si os entra la morriña y
deseáis volver a sentir la experiencia de probar alguno
de estos sistemas operativos, os dejo un enlace donde os
podéis casi todos los sistemas operativos de los que os
hemos hablado (pero esto no se lo digáis a nadie
).
La historia de
Internet
Internet surgió de un proyecto desarrollado en
Estados Unidos para apoyar a sus fuerzas militares. Luego de su
creación fue utilizado por el gobierno, universidades y
otros centros académicos.
Internet ha supuesto una revolución sin
precedentes en el mundo de la informática y de las
comunicaciones. Los inventos del telégrafo,
teléfono, radio y ordenador sentaron las bases para esta
integración de capacidades nunca antes vivida. Internet es
a la vez una oportunidad de difusión mundial, un mecanismo
de propagación de la información y un medio de
colaboración e interacción entre los individuos y
sus ordenadores independientemente de su localización
geográfica.
Orígenes de Internet
La primera descripción documentada acerca de las
interacciones sociales que podrían ser propiciadas a
través del networking (trabajo en red)
está contenida en una serie de memorándums escritos
por J.C.R. Licklider, del Massachusetts Institute of Technology,
en Agosto de 1962, en los cuales Licklider discute sobre su
concepto de Galactic Network (Red
Galáctica).
El concibió una red interconectada globalmente a
través de la que cada uno pudiera acceder desde cualquier
lugar a datos y programas. En esencia, el concepto era muy
parecido a la Internet actual. Licklider fue el principal
responsable del programa de investigación en ordenadores
de la DARPA desde Octubre de 1962. Mientras trabajó en
DARPA convenció a sus sucesores Ivan Sutherland, Bob
Taylor, y el investigador del MIT Lawrence G. Roberts de la
importancia del concepto de trabajo en red.
En Julio de 1961 Leonard Kleinrock publicó desde
el MIT el primer documento sobre la teoría de
conmutación de paquetes. Kleinrock convenció a
Roberts de la factibilidad teórica de las comunicaciones
vía paquetes en lugar de circuitos, lo cual resultó
ser un gran avance en el camino hacia el trabajo
informático en red. El otro paso fundamental fue hacer
dialogar a los ordenadores entre sí.
Para explorar este terreno, en 1965, Roberts
conectó un ordenador TX2 en Massachusetts con un Q-32 en
California a través de una línea telefónica
conmutada de baja velocidad, creando así la primera
(aunque reducida) red de ordenadores de área amplia
jamás construida. El resultado del experimento fue la
constatación de que los ordenadores de tiempo compartido
podían trabajar juntos correctamente, ejecutando programas
y recuperando datos a discreción en la máquina
remota, pero que el sistema telefónico de
conmutación de circuitos era totalmente inadecuado para
esta labor. La convicción de Kleinrock acerca de la
necesidad de la conmutación de paquetes quedó pues
confirmada.
A finales de 1966 Roberts se trasladó a la DARPA
a desarrollar el concepto de red de ordenadores y
rápidamente confeccionó su plan para ARPANET,
publicándolo en 1967. En la conferencia en la que
presentó el documento se exponía también un
trabajo sobre el concepto de red de paquetes a cargo de Donald
Davies y Roger Scantlebury del NPL. Scantlebury le habló a
Roberts sobre su trabajo en el NPL así como sobre el de
Paul Baran y otros en RAND. El grupo RAND había escrito un
documento sobre redes de conmutación de paquetes para
comunicación vocal segura en el ámbito militar, en
1964.
Ocurrió que los trabajos del MIT (1961-67), RAND
(1962-65) y NPL (1964-67) habían discurrido en paralelo
sin que los investigadores hubieran conocido el trabajo de los
demás. La palabra packet (paquete) fue adoptada a
partir del trabajo del NPL y la velocidad de la línea
propuesta para ser usada en el diseño de ARPANET fue
aumentada desde 2,4 Kbps hasta 50 Kbps (5).
En Agosto de 1968, después de que Roberts y la
comunidad de la DARPA hubieran refinado la estructura global y
las especificaciones de ARPANET, DARPA lanzó un RFQ para
el desarrollo de uno de sus componentes clave: los conmutadores
de paquetes llamados interface message processors (IMPs,
procesadores de mensajes de interfaz).
El RFQ fue ganado en Diciembre de 1968 por un grupo
encabezado por Frank Heart, de Bolt Beranek y Newman (BBN).
Así como el equipo de BBN trabajó en IMPs con Bob
Kahn tomando un papel principal en el diseño de la
arquitectura de la ARPANET global, la topología de red y
el aspecto económico fueron diseñados y optimizados
por Roberts trabajando con Howard Frank y su equipo en la Network
Analysis Corporation, y el sistema de medida de la red fue
preparado por el equipo de Kleinrock de la Universidad de
California, en Los Angeles (6).
A causa del temprano desarrollo de la teoría de
conmutación de paquetes de Kleinrock y su énfasis
en el análisis, diseño y medición, su
Network Measurement Center (Centro de Medidas de Red) en
la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo
ello ocurrió en Septiembre de 1969, cuando BBN
instaló el primer IMP en la UCLA y quedó conectado
el primer ordenador host.
El proyecto de Doug Engelbart denominado
Augmentation of Human Intelect (Aumento del Intelecto
Humano) que incluía NLS, un primitivo sistema hipertexto
en el Instituto de Investigación de Standford (SRI)
proporcionó un segundo nodo. El SRI patrocinó el
Network Information Center , liderado por Elizabeth
(Jake) Feinler, que desarrolló funciones tales como
mantener tablas de nombres de host para la
traducción de direcciones así como un directorio de
RFCs ( Request For Comments ).
Un mes más tarde, cuando el SRI fue conectado a
ARPANET, el primer mensaje de host a host fue
enviado desde el laboratorio de Leinrock al SRI. Se
añadieron dos nodos en la Universidad de California, Santa
Bárbara, y en la Universidad de Utah. Estos dos
últimos nodos incorporaron proyectos de
visualización de aplicaciones, con Glen Culler y Burton
Fried en la UCSB investigando métodos para mostrar
funciones matemáticas mediante el uso de "storage
displays" ( N. del T. : mecanismos que incorporan
buffers de monitorización distribuidos en red
para facilitar el refresco de la visualización) para
tratar con el problema de refrescar sobre la red, y Robert Taylor
e Ivan Sutherland en Utah investigando métodos de
representación en 3-D a través de la
red.
Así, a finales de 1969, cuatro ordenadores
host fueron conectados cojuntamente a la ARPANET inicial
y se hizo realidad una embrionaria Internet. Incluso en esta
primitiva etapa, hay que reseñar que la
investigación incorporó tanto el trabajo mediante
la red ya existente como la mejora de la utilización de
dicha red. Esta tradición continúa hasta el
día de hoy.
Se siguieron conectando ordenadores rápidamente a
la ARPANET durante los años siguientes y el trabajo
continuó para completar un protocolo host a
host funcionalmente completo, así como software
adicional de red. En Diciembre de 1970, el Network Working
Group (NWG) liderado por S.Crocker acabó el protocolo
host a host inicial para ARPANET, llamado
Network Control Protocol (NCP, protocolo de control de
red). Cuando en los nodos de ARPANET se completó la
implementación del NCP durante el periodo 1971-72, los
usuarios de la red pudieron finalmente comenzar a desarrollar
aplicaciones.
En Octubre de 1972, Kahn organizó una gran y muy
exitosa demostración de ARPANET en la International
Computer Communication Conference . Esta fue la primera
demostración pública de la nueva tecnología
de red. Fue también en 1972 cuando se introdujo la primera
aplicación "estrella": el correo electrónico.
En Marzo, Ray Tomlinson, de BBN, escribió el software
básico de envío-recepción de mensajes de
correo electrónico, impulsado por la necesidad que
tenían los desarrolladores de ARPANET de un mecanismo
sencillo de coordinación.
En Julio, Roberts expandió su valor
añadido escribiendo el primer programa de utilidad de
correo electrónico para relacionar, leer selectivamente,
almacenar, reenviar y responder a mensajes. Desde entonces, la
aplicación de correo electrónico se
convirtió en la mayor de la red durante más de una
década. Fue precursora del tipo de actividad que
observamos hoy día en la World Wide Web , es
decir, del enorme crecimiento de todas las formas de
tráfico persona a persona.
Conceptos iniciales sobre Internetting
La ARPANET original evolucionó hacia Internet.
Internet se basó en la idea de que habría
múltiples redes independientes, de diseño casi
arbitrario, empezando por ARPANET como la red pionera de
conmutación de paquetes, pero que pronto incluiría
redes de paquetes por satélite, redes de paquetes por
radio y otros tipos de red. Internet como ahora la conocemos
encierra una idea técnica clave, la de arquitectura
abierta de trabajo en red.
Bajo este enfoque, la elección de cualquier
tecnología de red individual no respondería a una
arquitectura específica de red sino que podría ser
seleccionada libremente por un proveedor e interactuar con las
otras redes a través del metanivel de la arquitectura de
Internetworking (trabajo entre redes). Hasta ese
momento, había un sólo método para "federar"
redes.
Era el tradicional método de conmutación
de circuitos, por el cual las redes se interconectaban a nivel de
circuito pasándose bits individuales síncronamente
a lo largo de una porción de circuito que unía un
par de sedes finales. Cabe recordar que Kleinrock había
mostrado en 1961 que la conmutación de paquetes era el
método de conmutación más
eficiente.
Juntamente con la conmutación de paquetes, las
interconexiones de propósito especial entre redes
constituían otra posibilidad. Y aunque había otros
métodos limitados de interconexión de redes
distintas, éstos requerían que una de ellas fuera
usada como componente de la otra en lugar de actuar simplemente
como un extremo de la comunicación para ofrecer servicio
end-to-end (extremo a extremo).
En una red de arquitectura abierta, las redes
individuales pueden ser diseñadas y desarrolladas
separadamente y cada una puede tener su propia y única
interfaz, que puede ofrecer a los usuarios y/u otros proveedores,
incluyendo otros proveedores de Internet. Cada red puede ser
diseñada de acuerdo con su entorno específico y los
requerimientos de los usuarios de aquella red.
No existen generalmente restricciones en los tipos de
red que pueden ser incorporadas ni tampoco en su ámbito
geográfico, aunque ciertas consideraciones
pragmáticas determinan qué posibilidades tienen
sentido. La idea de arquitectura de red abierta fue introducida
primeramente por Kahn un poco antes de su llegada a la DARPA en
1972. Este trabajo fue originalmente parte de su programa de
paquetería por radio, pero más tarde se
convirtió por derecho propio en un programa
separado.
Entonces, el programa fue llamado Internetting
. La clave para realizar el trabajo del sistema de
paquetería por radio fue un protocolo extremo a extremo
seguro que pudiera mantener la comunicación efectiva
frente a los cortes e interferencias de radio y que pudiera
manejar las pérdidas intermitentes como las causadas por
el paso a través de un túnel o el bloqueo a nivel
local. Kahn pensó primero en desarrollar un protocolo
local sólo para la red de paquetería por radio
porque ello le hubiera evitado tratar con la multitud de sistemas
operativos distintos y continuar usando NCP.
Sin embargo, NCP no tenía capacidad para
direccionar redes y máquinas más allá de un
destino IMP en ARPANET y de esta manera se requerían
ciertos cambios en el NCP. La premisa era que ARPANET no
podía ser cambiado en este aspecto. El NCP se basaba en
ARPANET para proporcionar seguridad extremo a extremo. Si alguno
de los paquetes se perdía, el protocolo y presumiblemente
cualquier aplicación soportada sufriría una grave
interrupción. En este modelo, el NCP no tenía
control de errores en el host porque ARPANET
había de ser la única red existente y era tan
fiable que no requería ningún control de errores en
la parte de los host s.
Así, Kahn decidió desarrollar una nueva
versión del protocolo que pudiera satisfacer las
necesidades de un entorno de red de arquitectura abierta. El
protocolo podría eventualmente ser denominado
"Transmisson-Control Protocol/Internet Protocol"
(TCP/IP, protocolo de control de transmisión /protocolo de
Internet). Así como el NCP tendía a actuar como un
driver (manejador) de dispositivo, el nuevo protocolo
sería más bien un protocolo de
comunicaciones.
Ideas a prueba
DARPA formalizó tres contratos con Stanford
(Cerf), BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para
implementar TCP/IP (en el documento original de Cerf y Kahn se
llamaba simplemente TCP pero contenía ambos componentes).
El equipo de Stanford, dirigido por Cerf, produjo las
especificaciones detalladas y al cabo de un año hubo tres
implementaciones independientes de TCP que podían
interoperar.
Este fue el principio de un largo periodo de
experimentación y desarrollo para evolucionar y madurar el
concepto y tecnología de Internet. Partiendo de las tres
primeras redes ARPANET, radio y satélite y de sus
comunidades de investigación iniciales, el entorno
experimental creció hasta incorporar esencialmente
cualquier forma de red y una amplia comunidad de
investigación y desarrollo [REK78]. Cada expansión
afrontó nuevos desafíos.
Las primeras implementaciones de TCP se hicieron para
grandes sistemas en tiempo compartido como Tenex y TOPS 20.
Cuando aparecieron los ordenadores de sobremesa (
desktop ), TCP era demasiado grande y complejo como para
funcionar en ordenadores personales. David Clark y su equipo de
investigación del MIT empezaron a buscar la
implementación de TCP más sencilla y compacta
posible.
La desarrollaron, primero para el Alto de Xerox (la
primera estación de trabajo personal desarrollada en el
PARC de Xerox), y luego para el PC de IBM. Esta
implementación operaba con otras de TCP, pero estaba
adaptada al conjunto de aplicaciones y a las prestaciones de un
ordenador personal, y demostraba que las estaciones de trabajo,
al igual que los grandes sistemas, podían ser parte de
Internet.
En los años 80, el desarrollo de LAN, PC y
estaciones de trabajo permitió que la naciente Internet
floreciera. La tecnología Ethernet, desarrollada por Bob
Metcalfe en el PARC de Xerox en 1973, es la dominante en
Internet, y los PCs y las estaciones de trabajo los modelos de
ordenador dominantes. El cambio que supone pasar de una pocas
redes con un modesto número de hosts (el modelo
original de ARPANET) a tener muchas redes dio lugar a nuevos
conceptos y a cambios en la tecnología.
En primer lugar, hubo que definir tres clases de redes
(A, B y C) para acomodar todas las existentes. La clase A
representa a las redes grandes, a escala nacional (pocas redes
con muchos ordenadores); la clase B representa redes regionales;
por último, la clase C representa redes de área
local (muchas redes con relativamente pocos
ordenadores).
Como resultado del crecimiento de Internet, se produjo
un cambio de gran importancia para la red y su gestión.
Para facilitar el uso de Internet por sus usuarios se asignaron
nombres a los host s de forma que resultara innecesario
recordar sus direcciones numéricas. Originalmente
había un número muy limitado de máquinas,
por lo que bastaba con una simple tabla con todos los ordenadores
y sus direcciones asociadas.
El cambio hacia un gran número de redes
gestionadas independientemente (por ejemplo, las LAN)
significó que no resultara ya fiable tener una
pequeña tabla con todos los host s. Esto
llevó a la invención del DNS ( Domain Name
System , sistema de nombres de dominio) por Paul Mockapetris
de USC/ISI. El DNS permitía un mecanismo escalable y
distribuido para resolver jerárquicamente los nombres de
los host s (por ejemplo, www.acm.org o
www.ati.es ) en direcciones de
Internet.
El incremento del tamaño de Internet
resultó también un desafío para los
routers . Originalmente había un sencillo
algoritmo de enrutamiento que estaba implementado uniformemente
en todos los routers de Internet. A medida que el número
de redes en Internet se multiplicaba, el diseño inicial no
era ya capaz de expandirse, por lo que fue sustituido por un
modelo jerárquico de enrutamiento con un protocolo IGP (
Interior Gateway Protocol , protocolo interno de
pasarela) usado dentro de cada región de Internet y un
protocolo EGP ( Exterior Gateway Protocol , protocolo
externo de pasarela) usado para mantener unidas las
regiones.
El diseño permitía que distintas regiones
utilizaran IGP distintos, por lo que los requisitos de coste,
velocidad de configuración, robustez y escalabilidad,
podían ajustarse a cada situación. Los algoritmos
de enrutamiento no eran los únicos en poner en
dificultades la capacidad de los routers ,
también lo hacía el tamaño de la tablas de
direccionamiento. Se presentaron nuevas aproximaciones a la
agregación de direcciones (en particular CIDR,
Classless Interdomain Routing , enrutamiento entre
dominios sin clase) para controlar el tamaño de las tablas
de enrutamiento.
A medida que evolucionaba Internet, la
propagación de los cambios en el software, especialmente
el de los host s, se fue convirtiendo en uno de sus
mayores desafíos. DARPA financió a la Universidad
de California en Berkeley en una investigación sobre
modificaciones en el sistema operativo Unix, incorporando el
TCP/IP desarrollado en BBN. Aunque posteriormente Berkeley
modificó esta implementación del BBN para que
operara de forma más eficiente con el sistema y el kernel
de Unix, la incorporación de TCP/IP en el sistema Unix BSD
demostró ser un elemento crítico en la
difusión de los protocolos entre la comunidad
investigadora.
BSD empezó a ser utilizado en sus operaciones
diarias por buena parte de la comunidad investigadora en temas
relacionados con informática. Visto en perspectiva, la
estrategia de incorporar los protocolos de Internet en un sistema
operativo utilizado por la comunidad investigadora fue uno de los
elementos clave en la exitosa y amplia aceptación de
Internet.
Uno de los desafíos más interesantes fue
la transición del protocolo para host s de
ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se trataba de
una ocasión muy importante que exigía que todos los
host s se convirtieran simultáneamente o que
permanecieran comunicados mediante mecanismos desarrollados para
la ocasión.
La transición fue cuidadosamente planificada
dentro de la comunidad con varios años de
antelación a la fecha, pero fue sorprendentemente sobre
ruedas (a pesar de dar la lugar a la distribución de
insignias con la inscripción "Yo sobreviví a la
transición a TCP/IP").
TCP/IP había sido adoptado como un
estándar por el ejército norteamericano tres
años antes, en 1980. Esto permitió al
ejército empezar a compartir la tecnología DARPA
basada en Internet y llevó a la separación final
entre las comunidades militares y no militares. En 1983 ARPANET
estaba siendo usada por un número significativo de
organizaciones operativas y de investigación y desarrollo
en el área de la defensa. La transición desde NCP a
TCP/IP en ARPANET permitió la división en una
MILNET para dar soporte a requisitos operativos y una ARPANET
para las necesidades de investigación.
Así, en 1985, Internet estaba firmemente
establecida como una tecnología que ayudaba a una amplia
comunidad de investigadores y desarrolladores, y empezaba a ser
empleada por otros grupos en sus comunicaciones diarias entre
ordenadores. El correo electrónico se empleaba ampliamente
entre varias comunidades, a menudo entre distintos sistemas. La
interconexión entre los diversos sistemas de correo
demostraba la utilidad de las comunicaciones electrónicas
entre personas.
La
transición hacia una infraestructura
global
Al mismo tiempo que la tecnología Internet estaba
siendo validada experimentalmente y usada ampliamente entre un
grupo de investigadores de informática se estaban
desarrollando otras redes y tecnologías. La utilidad de
las redes de ordenadores (especialmente el correo
electrónico utilizado por los contratistas de DARPA y el
Departamento de Defensa en ARPANET) siguió siendo evidente
para otras comunidades y disciplinas de forma que a mediados de
los años 70 las redes de ordenadores comenzaron a
difundirse allá donde se podía encontrar
financiación para las mismas.
El Departamento norteamericano de Energía (DoE,
Deparment of Energy ) estableció MFENet para sus
investigadores que trabajaban sobre energía de
fusión, mientras que los físicos de altas
energías fueron los encargados de construir HEPNet. Los
físicos de la NASA continuaron con SPAN y Rick Adrion,
David Farber y Larry Landweber fundaron CSNET para la comunidad
informática académica y de la industria con la
financiación inicial de la NFS ( National Science
Foundation , Fundación Nacional de la Ciencia) de
Estados Unidos.
La libre diseminación del sistema operativo Unix
de ATT dio lugar a USENET, basada en los protocolos de
comunicación UUCP de Unix, y en 1981 Greydon Freeman e Ira
Fuchs diseñaron BITNET, que unía los ordenadores
centrales del mundo académico siguiendo el paradigma de
correo electrónico como "postales". Con la
excepción de BITNET y USENET, todas las primeras redes
(como ARPANET) se construyeron para un propósito
determinado.
Es decir, estaban dedicadas (y restringidas) a
comunidades cerradas de estudiosos; de ahí las escasas
presiones por hacer estas redes compatibles y, en consecuencia,
el hecho de que durante mucho tiempo no lo fueran. Además,
estaban empezando a proponerse tecnologías alternativas en
el sector comercial, como XNS de Xerox, DECNet, y la SNA de IBM
(8).
Sólo restaba que los programas ingleses JANET
(1984) y norteamericano NSFNET (1985) anunciaran
explícitamente que su propósito era servir a toda
la comunidad de la enseñanza superior sin importar su
disciplina. De hecho, una de las condiciones para que una
universidad norteamericana recibiera financiación de la
NSF para conectarse a Internet era que "la conexión
estuviera disponible para todos los usuarios
cualificados del campus".
En 1985 Dennins Jenning acudió desde Irlanda para
pasar un año en NFS dirigiendo el programa NSFNET.
Trabajó con el resto de la comunidad para ayudar a la NSF
a tomar una decisión crítica: si TCP/IP
debería ser obligatorio en el programa NSFNET. Cuando
Steve Wolff llegó al programa NFSNET en 1986
reconoció la necesidad de una infraestructura de red
amplia que pudiera ser de ayuda a la comunidad investigadora y a
la académica en general, junto a la necesidad de
desarrollar una estrategia para establecer esta infraestructura
sobre bases independientes de la financiación
pública directa. Se adoptaron varias políticas y
estrategias para alcanzar estos fines.
La NSF optó también por mantener la
infraestructura organizativa de Internet existente (DARPA)
dispuesta jerárquicamente bajo el IAB ( Internet
Activities Board , Comité de Actividades de
Internet). La declaración pública de esta
decisión firmada por todos sus autores (por los grupos de
Arquitectura e Ingeniería de la IAB, y por el NTAG de la
NSF) apareció como la RFC 985 ("Requisitos para pasarelas
de Internet") que formalmente aseguraba la interoperatividad
entre las partes de Internet dependientes de DARPA y de
NSF.
El backbone había hecho la
transición desde una red construida con routers
de la comunidad investigadora (los routers Fuzzball de
David Mills) a equipos comerciales. En su vida de ocho
años y medio, el backbone había crecido
desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces
múltiples de 45Mb.Había visto crecer Internet hasta
alcanzar más de 50.000 redes en los cinco continentes y en
el espacio exterior, con aproximadamente 29.000 redes en los
Estados Unidos.
El efecto del ecumenismo del programa NSFNET y su
financiación (200 millones de dólares entre 1986 y
1995) y de la calidad de los protocolos fue tal que en 1990,
cuando la propia ARPANET se disolvió, TCP/IP había
sustituido o marginado a la mayor parte de los restantes
protocolos de grandes redes de ordenadores e IP estaba en camino
de convertirse en el servicio portador de la llamada
Infraestructura Global de Información.
El futuro:
Internet 2
Internet2 es el futuro de la red de redes y está
formado actualmente por un consorcio dirigido por 206
universidades que junto a la industria de comunicaciones y el
gobierno están desarrollando nuevas técnicas de
conexión que acelerarán la capacidad de
transferencia entre servidores.
Sus objetivos están enfocados a la
educación y la investigación académica.
Además buscan aprovechar aplicaciones de audio y video que
demandan más capacidad de transferencia de ancho de
banda
Blas Pascal (1623-1662). El honor de
ser considerado como el "padre" de la computadora
le correspondió al ilustre filósofo y
científico francés quien siglo y medio
después de Leonardo da Vinci inventó y
construyó la primera máquina calculadora
automática utilizable, precursora de las modernas
computadoras. Entre otras muchas cosas, Pascal desarrolló
la teoría de las probabilidades, piedra angular de las
matemáticas modernas. La pascalina funciona en base al
mismo principio del odómetro (cuenta kilómetros) de
los automóviles, que dicho sea de paso, es el mismo
principio en que se basan las calculadoras mecánicas
antecesoras de las electrónicas, utilizadas no hace tanto
tiempo. En un juego de ruedas, en las que cada una contiene los
dígitos, cada vez que una rueda completa una vuelta, la
rueda siguiente avanza un décimo de
vuelta.
A pesar de que Pascal fue enaltecido por
toda Europa debido a sus logros, la Pascalina, resultó un
desconsolador fallo financiero, pues para esos momentos,
resultaba más costosa que la labor humana para los
cálculos aritméticos.
Atanasoff Y Berry Una antigua
patente de un dispositivo que mucha gente creyó que era la
primera computadora digital electrónica, se
invalidó en 1973 por orden de un tribunal federal, y
oficialmente se le dio el crédito a John V. Atanasoff como
el inventor de la computadora digital
electrónica. El Dr. Atanasoff, catedrático de
la Universidad Estatal de Iowa, desarrolló la primera
computadora digital electrónica entre los años de
1937 a 1942. Llamó a su invento la computadora
Atanasoff-Berry, ó solo ABC (Atanasoff Berry
Computer). Un estudiante graduado, Clifford Berry, fue una
útil ayuda en la construcción de la computadora
ABC.
Sistemas de Tiempo Real
A menudo son utilizados como
dispositivos de control en aplicaciones dedicadas, como
control de experimentos científicos, sistemas de
procesamiento de imágenes médicas, sistemas de
control industrial, etc…Exige cumplimiento de restricciones de
tiempos.Sistemas de Tiempo Real
Críticos.
–
Cumplimiento forzoso de plazos de respuesta.
–
Predecibilidad y análisis de cumplimiento de plazos
de respuesta
Sistemas de tiempo real
acríticos.
– Exigencia
"suave" de plazos de respuesta.
–
Atención lo mas rápido posible a eventos, en
promedio.
UNIX
Los orígenes del sistema UNIX
se remontan al desarrollo de un proyecto iniciado en 1968. Este
proyecto fue realizado por General Electric, AT&T, Bell y el
MIT; llevaron a cabo el desarrollo de un sistema operativo con
nuevos conceptos como la multitarea, la gestión de
archivos o la interacción con el usuario. El resultado de
estas investigaciones se bautizó como MULTICS. El
proyecto resultó ser demasiado ambicioso, por lo que no
llegó a buen fin y terminó
abandonándose.
Posteriormente la idea de este proyecto se
vuelve a retomar y conduce al gran desarrollo en 1969 del sistema
operativo UNIX. Entre los investigadores destacaban Ken
Thompson y Dennis Ritchie. En principio, este sistema operativo
recibió el nombre de UNICS, aunque un año
después pasa a llamarse UNIX, como se conoce hoy en
día.
El código de UNIX estaba
inicialmente escrito en lenguaje ensamblador, pero en
1973, Dennis Ritchie llevó a cabo un proyecto para
reescribir el código de UNIX en lenguaje C. UNIX se
convirtió así en el primer sistema operativo
escrito en lenguaje de alto nivel. Con este nuevo enfoque fue
posible trasladar el sistema operativo a otras máquinas
sin muchos cambios, solamente efectuando una nueva
compilación en la máquina de destino. Gracias a
esto la popularidad de UNIX creció y permitió
asentar la "filosofía UNIX".
Inicialmente UNIX fue considerado como un
proyecto de investigación, hasta el punto de distribuirse
de forma gratuita en algunas universidades, pero después
la demanda del producto hizo que los laboratorios Bell iniciaran
su distribución oficial.
Después de tres décadas de
haber escapado de los laboratorios Bell, el UNIX sigue siendo uno
de los SO más potentes, versátiles y flexibles en
el mundo de la computación. Su popularidad se debe a
muchos factores incluidas su portabilidad y habilidad de correr
eficientemente en una inmensa variedad de computadoras. Descrito
frecuentemente como un sistema "simple, potente y elegante" el
UNIX es hoy el corazón que late en el seno de millones de
aplicaciones de telefonía fija y móvil, de millones
de servidores en universidades, centros académicos,
grandes, medianas y pequeñas empresas, el SO cuyo
desarrollo viene de la mano del de Internet y que alberga a
millones de servidores y aplicaciones de la red de redes. Sin
UNIX, no cabe duda, el mundo de la informática hubiera
sido otro.
Linux
En octubre de 1991 un estudiante
graduado de Ciencias de la Computación en la Universidad
de Helsinki, llamado Linus Torvalds, anuncia en Internet que
había escrito una versión libre de un sistema
MINIX (una variante de UNÍX) para una computadora
con procesador Intel 386 y lo dejaba disponible para todo aquel
que estuviera interesado. En los subsiguientes 30 meses se
desarrollarían hasta 90 versiones del nuevo SO,
finalizando en 1994 con la definitiva, llamándola Linux
versión 1.0.
La fascinación de los medios por
Linux viene dada, entre otras cosas, por ser un proyecto de
ingeniería de software distribuido a escala global,
esfuerzo mancomunado de más de 3 000 desarrolladores y un
sinnúmero de colaboradores distribuidos en más de
90 países. El rango de participantes en la
programación del Linux se ha estimado desde unos cuantos
cientos hasta más de 40.000, ya sea ofreciendo
código, sugiriendo mejoras, facilitando comentarios o
describiendo y enriqueciendo manuales. De hecho, se cuenta que el
mayor soporte técnico jamás diseñado de
manera espontánea y gratuita pertenece a este SO. Hoy
Linux es una alternativa para muchos o un indispensable para
otros. Su importancia no puede ser relegada: los RED HAT, los
SUSE, los Mandrake pueblan miles de servidores por todo el
planeta
Las Distribuciones de Linux
son:
Caldera: El énfasis de
esta distribución es la facilidad de uso e
instalación para los usuarios. Se orienta más
hacia el desktop a pesar que, como cualquier otra
distribución de Linux, puede ser usada para
servidores.Corel: Es una
distribución basada en Debian, pero extensivamente
modificada para hacerla tan fácil de usar como el
sistema operativo de Microsoft. Es quizá la
distribución más fácil de utilizar para
alguien que no esté familiarizado con Unix.Debian: Es una
distribución orientada más a desarrolladores y
programadores. El énfasis de esta distribución
es incluir en su sistema solamente software libre
según la definición de la Fundación del
Software Libre (FSF).Mandrake: Es una
distribución originalmente basada en RedHat que se
enfoca principalmente hacia la facilidad de uso. Al igual que
Corel, es recomendada para quienes no tengan mucha
experiencia con sistemas Unix.RedHat: Es la
distribución más popular de Linux y para la que
hay más paquetes comerciales de software. Está
orientada tanto al desktop como a servidores. La
mayoría de servidores de web que utilizan Linux como
sistema operativo usan esta distribución.S.U.S.E.: Es la
distribución más popular en Europa y
probablemente la segunda más popular del mundo. Al
igual que RedHat, está orientada tanto a desktops como
a servidores.Slackware: Es una
distribución de Linux que pretende parecerse a BSD
desde el punto de vista del administrador de sistemas. No es
una distribución muy popular a pesar que cuando
comenzó era la más popular.Stampede: Es una
distribución enfocada al rendimiento y velocidad del
sistema. No es muy fácil de usar para quién no
está acostumbrado a la administración de
sistemas Unix.
OS/2 (IBM
Operating System 2)
OS/2 son las siglas de "Sistema
operativo de segunda generación". La idea de OS/2
surgió entre IBM y Microsoft a mediados de los 80, en un
intento de hacer un sucesor de MS-DOS, el cual ya empezaba a
acusar el paso del tiempo y resultaba claramente desaprovechador
de los recursos de las máquinas de la época
(basadas en el Intel 286).
OS/2 1.0
OS/2 1.0 salió en abril de
1987 y era un sistema operativo de 16 bits, pues estaba pensado
para trabajar sobre el microprocesador 286. Sin embargo,
aprovechaba plenamente el modo protegido de este ordenador,
haciendo uso de sus capacidades para protección de
memoria, gestión de multitarea, etc. El resultado fue un
S.O. estable, rápido y muy potente.
OS/2 ya tenía incorporada desde esa
primera versión la multitarea real. Se podían
ejecutar varias sesiones simultáneamente, en cada una de
ellas se podían tener múltiples programas, y cada
uno de ellos podía tener múltiples threads en
ejecución. Se trataba de una multitarea jerárquica,
con cuatro niveles de prioridad: Crítico
(útil para programas que requieran atención casi
constante por parte del CPU, como un módem),
Primer plano (correspondiente al programa que tiene acceso
a la pantalla, teclado y ratón), Medio (programas
lanzados por el usuario que se ejecutan en BackGround) y
Desocupado (tareas de poca importancia o lentas, como el
Spooler de impresión). Dentro de cada nivel (a
excepción del de Primer plano), existen 32 niveles de
prioridad, los cuales son asignados dinámicamente a cada
programa por el S.O. en función del porcentaje de uso del
CPU, de los puertos de E/S, etc.
OS/2, además, permitía
memoria virtual, con lo que se podían ejecutar programas
más largos que lo que la memoria física instalada
permitiría en principio (los requerimientos de aquella
versión eran un 286 con 2 megas de memoria). Por otro
lado, incluía la característica de
compartición de código: al cargar dos veces
un mismo programa, el código de este no se duplicaba en
memoria, sino que el mismo código era ejecutado por dos
Threads diferentes. Esto permitía ahorrar mucha
memoria.
Esta versión de OS/2 era
íntegramente en modo texto. Si bien el Sistema Operativo
daba la posibilidad de usar los modos gráficos de la
tarjeta del ordenador, no incluía ningún API que
ayudase en ello, recayendo todo el trabajo de diseño de
rutinas de puntos, líneas, etc, en el programador de la
aplicación. Esto no era realmente tan problemático,
pues era lo que se hacía en el mundo del MS-DOS. Sin
embargo, se añoraba un entorno gráfico como
Windows.
OS/2 1.1
En la versión 1.1, aparecida
en octubre de 1988, llegó por fin el Presentation Manager,
un gestor de modo gráfico, junto con la primera
versión de Work Place Shell. Ambos formaban un entorno
gráfico muy parecido al aún no comercializado
Windows 3.0. También hizo su aparición el formato
de ficheros HPFS (High Performance File System). Este sistema de
ficheros complementaba al clásico FAT, que era el usado
por MS-DOS y por OS/2 1.0; sin embargo, ofrecía una gran
cantidad de ventajas, tales como:
Menor fragmentación de ficheros:
HPFS busca primero una zona en donde el archivo entre
completo, con lo que la fragmentación de ficheros es
prácticamente inexistente. De hecho, IBM recomienda
desfragmentar los discos duros una vez al año, y solo
a los paranoicos.Mayor capacidad: HPFS admite discos
duros de más capacidad, manteniendo el
tamaño del cluster (unidad mínima de
información almacenable) en 512 bytes o un sector. En
FAT, el tamaño mínimo de cluster para un disco
duro es 2048 bytes, y para discos mayores aumenta (un disco
duro de 1 giga tiene un tamaño de cluster de
32K).Soporte para nombres largos: Permite
nombres de hasta 256 caracteres.Mayor seguridad: Si al grabar en un
sector se detecta un error, se marca automáticamente
como defectuoso y se graba en otra parte.Mayor velocidad en el acceso: Gracias a
la estructura jerárquica de directorios, que optimiza
el acceso a disco.
El gran problema de OS/2 es que
seguía siendo un S.O. de 16 bits, con lo que no
aprovechaba plenamente las capacidades de los 386 de la
época, que empezaron a extenderse con más velocidad
de la esperada. Según una revista del sector, Microsoft
sugirió hacer una versión de 32 bits (que
obligaría a ejecutarla en ordenadores 386 o superiores),
pero IBM insistió en perfeccionar la de 16 bits. Sobre
quien dijo cada cosa realmente solo se puede especular. Lo
único que se sabe a ciencia cierta es que la
versión de OS/2 de 32 bits presentada por Microsoft en
1990 era casi igual que la versión 1.3, con la
única diferencia de que el kernel era de 32 bits. IBM, por
su parte, quería un escritorio orientado a objetos, y no
el clásico shell de OS/2 1.x (el cual Microsoft
copiaría para su Windows 3.0). Puestas así las
cosas, finalmente se rompió el acuerdo entre
ambos.
OS/2 2.0
Fué la primera
versión de OS/2 de 32 bits, iba a salir inicialmente a
finales de 1990; pero al no contar con la ayuda de Microsoft, IBM
no fue capaz de sacarlo hasta 1992, dándole a Windows 3.0
el tiempo suficiente para asentarse en el mercado.
OS/2 2.0 tenía todas las ventajas de
los anteriores OS/2, unido al nuevo núcleo de 32 bits. No
se trataba, por tanto, de un retoque de la versión de 16
bits, sino un sistema operativo prácticamente nuevo que
aprovechaba al máximo las capacidades del modo protegido
del microprocesador 386. Sin embargo, iba más allá
que Windows, pues al contrario que éste, ofrecía
compatibilidad garantizada con todas las aplicaciones de 16 bits
anteriores, gracias a la inclusión del API original de 16
bits junto con el nuevo de 32, y además sin perdida de
prestaciones. Así mismo, ofrecía también
compatibilidad con Windows 2.x y 3.0, junto con una
compatibilidad con MS-DOS muy mejorada, gracias al modo V86 que
incorporan los micros 386 y del que carecía el 286: en
OS/2 1.x la compatibilidad DOS era muy limitada, quedando
reducida a una sola tarea y realizando un cambio entre modo real
y modo protegido del microprocesador, además de consumir
de manera permanente 640 K de memoria. Aparte, la
emulación no era todo lo buena que cabía esperar.
Todos estos problemas desaparecieron en la versión 2.0,
pudiendo tener varias sesiones DOS totalmente independientes
entre sí, con una compatibilidad cercana al 100% y
beneficiándose de las capacidades de Crash Protection del
OS/2, que impiden que un programa pueda colapsar el sistema
entero.
Por otro lado, el Work Place Shell (el
shell de trabajo gráfico, de ahora en adelante WPS) fue
muy mejorado, resultando un shell totalmente orientado a objetos,
con acceso directo a los ficheros, carpetas dentro de carpetas,
ficheros sombra (conocidos como alias en los sistemas UNIX) y un
escritorio de verdad.
IBM consiguió vender OS/2 2.0 en
grandes cantidades; sin embargo, no consiguió su autentico
despegue, en parte por culpa de la falta de apoyo por parte de
las empresas del software. El API del Presentation Manager,
aunque similar al de Windows, tenía muchas diferencias,
con lo que las empresas tuvieron que elegir entre uno u otro,
ante la imposibilidad de muchas de ellas de dividir su talento
entre ambos sistemas.
OS/2 3.0
(Warp)
A principios de 1994 aparece el OS/2
Warp, nombre comercial de la versión 3.0 de OS/2. En ella
surgen nuevos elementos: un kit completo de multimedia (mejor del
que traía la versión 2.1) y el Bonus Pak, un kit de
aplicaciones que permite ponerse a trabajar con el ordenador nada
más instalar el Sistema Operativo, pues contiene elementos
como un Kit de conexión a Internet completo, el paquete
integrado IBM Works (formado por un procesador de textos, hoja de
cálculo, base de datos y gráficos de empresa, junto
con el PIM, que añade más funcionalidades
aprovechando las capacidades drag&drop del WPShell), soft de
terminal, soft de captura y tratamiento de video, etc. Así
mismo, la cantidad de hardware soportado fue ampliada de manera
considerable, soportando casi cualquier dispositivo existente en
el mercado: CD-Roms, impresoras, tarjetas de sonido, soporte
PCMCIA, tarjetas de video, tarjetas de captura de video, tarjetas
SCSI, etc. Los requisitos mínimos de esta versión
seguían siendo un 386SX a 16MHz con 4 megas de RAM, los
mismos que para Windows 3.11, y podía ejecutar programas
DOS, OS/2 16bits, OS/2 32 bits, Windows 2.x y Windows 3.x
(incluía además el API Win32, con lo que se
podían ejecutar incluso programas Windows de
32bits).
IBM se metió en una campaña
publicitaria a nivel mundial para promocionar esta nueva
versión, la cual, sin embargo, no dio los resultados
esperados. A pesar de eso, OS/2 es ampliamente utilizado en
múltiples empresas, bancos sobre todo, en donde su
estabilidad es la mayor garantía.
Poco después sale al mercado una
revisión de Warp, denominada Warp Connect, la cual
añade un kit completo de conexión a redes,
soportando prácticamente cualquier estándar de red,
incluyendo Novell Netware, TCP/IP, etc. junto con soporte para
SLIP y PPP.
OS/2 4.0
(Merlín)
En Noviembre de 1996 se hizo la
presentación de Merlín, nombre clave de OS/2
4.0, y que, en contra de lo que mucha gente piensa, no tiene nada
que ver con el mítico mago de la corte del rey Arturo,
sino con un pájaro parecido a un águila (siguiendo
la nueva filosofía de IBM de nombrar sus creaciones con
nombres de aves). Merlín trae todo lo que ofrecía
OS/2 3.0, pero lo amplía con un conjunto extra de
características, como son:
Un soporte todavía mayor de
hardware.Mayor simplicidad de
instalación.Librerías OpenDoc (compatibles
con OLE 2.0, pero más potentes).Librerías OpenGL, que permiten
aprovechar las capacidades 3D de las tarjetas que soporten
este estándar.API de desarrollo Open32, que permiten
recompilar con suma facilidad las aplicaciones escritas para
Windows95 y WindowsNT, de forma que aprovechen al
máximo los recursos de OS/2.Un Bonus Pack ampliado, incluyendo una
nueva versión del IBMWorks basada en OpenDoc, y las
utilidades LotusNotes.Un Kernel aún más
optimizado.Escritorio mejorado, ofreciendo una
orientación a objeto aún mayor.Un extenso soporte de conectividad,
superior a la versión Connect de Warp 3.0, lo que lo
convierte en el cliente de red universal, pudiendo conectarse
a casi cualquier servidor (no solo Warp Server, sino Windows
NT Server, Novell, etc).HPFS mejorado: mayor capacidad por
disco y seguridad.Sesiones DOS reales (el micro se
conmuta a modo real, y todo el contenido de la RAM se guarda
en disco, quedando el Sistema Operativo y el resto de las
utilidades congelados, pudiendo rearrancar en cualquier
momento. Es útil para juegos o programas de DOS muy
exigentes, que se niegan a funcionar en una sesión DOS
virtual).La Característica Estrella de
cara al Márketing: El VoiceType. Se trata de un
software reconocedor de voz, capaz de funcionar con cualquier
tarjeta de sonido, y que permite al usuario trabajar
exclusivamente mediante el dictado de comandos. Este sistema,
al contrario que otros disponibles hasta el momento,
realmente reconoce el habla de forma continua, de modo que no
sólo se puede usar para navegar por el escritorio y
controlar programas, sino que sirve perfectamente para dictar
cualquier tipo de texto, como artículos, cartas, etc.,
sin tocar una sola tecla. Se trata, por tanto, de un avance
de los que serán, sin duda, los sistemas operativos
del futuro.
Microsoft
Windows
De los tantos sistemas operativos que
se han hecho famosos a lo largo del desarrollo de la
informática en el ocaso del siglo pasado, sin duda,
ningún otro posee la peculiaridad del Windows de
Microsoft.Rodeado por todo tipo de mitos acerca de su emprendedor
y ambicioso creador, solidificado sobre la base de un sistema
DOS, cuya irrupción en la primera PC tenía
más de suerte que de propósito, amparado por
disfrutar de un férreo y despiadado control de mercado es
hoy por hoy, odiado o amado, el sistema operativo más
extendido del planeta.
MS-DOS
Cuando IBM fabricó la PC hizo
que el usuario antes de cargar algún SO, realizara lo que
se llamó el POST (Power On Self Test), que
determinaba los dispositivos disponibles (teclado, vídeo,
discos, etc.) y luego buscaba un disco de arranque. Estas
funciones eran realizadas por un conjunto de instrucciones
incorporad.as en la máquina mediante una ROM Luego
quedó escrito que siempre hubiera algún tipo de
software en el sistema aún sin ser cargado el SO. Entre
las rutinas del POST tenemos las de revisión del sistema,
inicialización y prueba de teclado, habilitación de
vídeo, chequeo de la memoria y la rutina de
inicialización que preparaba a la máquina para
ejecutar el DOS. Después que las pruebas de arranque han
sido ejecutadas y el sistema está cargado, la ROM
aún sigue siendo importante debido a que contiene el
soporte básico de entrada y salida (BIOS). La BIOS
provee un conjunto de rutinas que el SO o los programas de
aplicación pueden llamar para manipular el monitor,
teclado, discos duros, discos flexibles, puertos COM o
impresoras.
El trato de IBM con Microsoft tenía
entre otras condiciones una particularidad interesante: la
administración directa de las tarjetas adaptadoras
podría ser manejada sólo por programas que IBM
proveía con la ROM del computador. El DOS sería
escrito para utilizar estos servicios. De esta manera, si IBM
decidía cambiar el hardware, éste podía
embarcar nuevos modelos de chips con cambios en la BIOS y no
requería que Microsoft cambiara el SO. Ello
posibilitó, junto con la clonación de la
arquitectura de IBM incluido la BIOS, que el DOS se extendiera
por el universo, aun cuando el Gigante Azul rompiera su alianza
con Microsoft, en 1991, para producir su propio SO. Microsoft
había hecho un trabajo estratégico brillante e IBM
había perdido la supremacía de las computadoras
para siempre.
Realmente el núcleo del DOS estaba
contenido en un par de archivos ocultos llamados IO.SYS y
MSDOS.SYS en las versiones de DOS realizadas por
Microsoft, e IBMBIO.SYS, para las versiones de DOS hechas por IBM
bajo licencia Microsoft. Los servicios del DOS eran solicitados
cuando una aplicación llamaba a la interrupción 21
(INT 21) reservada para estos fines. Esta buscaba un punto de
entrada del administrador de servicios del DOS en una tabla y
saltaba a la rutina en el módulo MSDOS.SYS. En otros SO,
la aplicación debía realizar una llamada al sistema
(system call) para requerir servicios, como, por ejemplo, en
UNIX.
Otro rasgo distintivo del MS-DOS fue la
forma en el manejo de la estructura de ficheros: la FAT
(File Allocation Table) o Tabla de Asignación de Archivos,
que dividía al disco en subdirectorios y archivos.
Criticados por muchos como un sistema poco seguro y no eficiente,
la herencia sobrevivió por mucho tiempo y no fue hasta
época reciente que Microsoft decidió reemplazarlo
por un sistema más robusto, el NTFS que destinó a
la gama alta de sus SO: el Windows NT, 2000 y XP.
Windows 1.0
Microsoft hizo su primera
incursión en lo que luego se llamaría Microsoft
Windows en el año 1981 con el llamado Interface Manager,
en tiempos en que las interfaces gráficas de usuario, GUI,
eran una quimera de lujo para muchos, en tanto la
computación estaba suscripta al área
geográfica de los centros académicos, grandes
instituciones y empresas. Más que un SO, se trataba en
realidad de una interfaz montada sobre su estrenado DOS. Aunque
los primeros prototipos usaban una interfaz similar a una de las
aplicaciones estrellas de la Compañía en aquel
entonces, el Multiplan, luego ésta fue cambiada por
menús pulldown y cuadros de diálogo, similares a
las usadas en el programa Xerox Star del mencionado fabricante.
Al sentir la presión de programas similares en aquel
entonces, Microsoft anuncia oficialmente Windows a finales del
año 1983. En ese momento, muchas compañías
trabajan la línea de las interfaces gráficas, entre
ellas Apple, reconocida casi por todos como la primera, DESQ de
Quraterdeck, Amiga Workbech, NEXTstep, etc. Windows
prometía una interfaz GUI de fácil uso, soporte
multitarea y gráfico. Siguiendo el rito de los
anuncio-aplazamientos de Microsoft, Windows 1.0 no llegó a
los estantes de los negocios hasta noviembre de 1985, disponiendo
de un soporte de aplicaciones pobres y un nivel de ventas
pírrico. El paquete inicial de Windows 1.0 incluía:
MS-DOS Ejecutivo, Calendario, Tarjetero, el Notepad, Terminal,
Calculadora, Reloj, Panel de Control, el editor PIF (Program
Information File), un Spooler de impresión, el Clipboard,
así como el Windows Write y Windows Paint.
Windows 2.0
Windows/286 y Windows/386,
renombrados como Windows 2.0 terminan la saga en el otoño
de 1987, al ofrecer algunas mejoras de uso, adicionar
íconos y permitir la superposición de ventanas, lo
que propició un marco mucho más apropiado para la
con-ubicación de aplicaciones de mayor nivel como el
Excel, Word, Corel Draw, Ami y PageMaker, etc. Una notoriedad del
Windows/386 lo constituyó el hecho de poder correr
aplicaciones en modo extendido y múltiples programas DOS
de manera simultánea.
Windows 3.0
El Windows 3.0, que aparece en mayo
de 1990, constituyó un cambio radical del ambiente Windows
hasta entonces. Su habilidad de direccionar espacios de memorias
por encima de los 640 k y una interfaz de usuario mucho
más potente propiciaron que los productores se estimularan
con la producción de aplicaciones para el nuevo programa.
Ello, unido a la fortaleza dominante del MS-DOS como SO llevado
de la mano de la gula insaciable del gigante corporativo, hizo
que el Windows 3.0 se vislumbrara como el primer SO
gráfico (siempre con el MS-DOS bajo su estructura)
marcado para dominar el mercado de las PCs en el futuro
inmediato. Windows 3.0 fue un buen producto, desde el punto de
vista de las ventas: diez millones de copias.
Windows 3.1 y 3.11
En 1992 llegaría la saga
del Windows 3.1 y 3.11, así como su variante para trabajo
en grupo. Con éste se hizo patente el traslado de la
mayoría de los usuarios del ambiente de texto que
ofrecía el MS-DOS hacia el ambiente gráfico de la
nueva propuesta, olvidándonos todos paulatinamente del
Copy A: *.* para sustituirlo por el COPIAR Y PEGAR. Las primeras
aplicaciones "adquiridas y/o desplazadas" por Microsoft ofrecidas
como un todo único, el ambiente de RED peer to peer, los
sistemas de upgrade de una versión a otra y el tratamiento
diferenciado para los revendedores y los fabricantes OEM,
caracterizaron los movimientos de Microsoft para afianzar el
mercado de su SO insignia. En el caso de la versión para
trabajo en grupo, Microsoft integró por primera vez su SO
con un paquete de tratamiento para redes, lo que permitió,
sobre un protocolo propio, el compartir ficheros entre PCs
(incluso corriendo DOS), compartir impresoras, sistema de correo
electrónico y un planificador para trabajo en grupo. Sin
embargo, lo realmente llamativo consistió en su plena
integración con el ambiente Windows y con ello garantizar,
independiente de la calidad del producto final, un seguro
predominio.
Windows 95
El año 1995 significó
un nuevo vuelco en la línea de los SO de Microsoft. En
agosto sale al mercado el controvertido Windows 95, un entorno
multitarea con interfaz simplificada y con otras funciones
mejoradas.
Parte del código de Windows 95
está implementado en 16 bits y parte en 32 bits. Uno de
los motivos por los cuales se ha hecho así, ha sido para
conservar su compatibilidad. Con Windows 95 podemos ejecutar
aplicaciones de Windows 3.1 ó 3.11, MS-DOS y obviamente
las nuevas aplicaciones diseñadas específicamente
para este sistema operativo. Entre las novedades que ofrece
Windows 95 cabe destacar el sistema de ficheros de 32 bits,
gracias al cual podemos emplear nombres de ficheros de hasta 256
caracteres (VFAT y CDFS), debido a que se trata de un sistema
operativo de modo protegido, desaparece la barrera de los 640K,
hemos de tener presente que aunque la mayor parte de Windows 3.1
es un sistema de modo protegido, este se está ejecutando
sobre un sistema operativo que trabaja en modo real.
La interfaz de Windows 95 también ha
sido mejorada. El primer gran cambio que veremos al empezar a
trabajar será la desaparición del Administrador de
Programas. Ahora tenemos un escritorio al estilo del Sistema 7 de
los Macintosh o NeXTStep.
Viene a sustituir al sistema operativo DOS
y a su predecesor Windows 3.1. Frente al DOS tiene tres ventajas
importantes:
En primer lugar toda la
información presentada al usuario es gráfica,
mientras que el DOS trabaja con comandos en modo texto
formados por órdenes difíciles de
recordar.En segundo lugar, Windows 95 define una
forma homogénea de utilizar los recursos de la
computadora, lo cual permite compartir datos entre las
distintas aplicaciones, así como utilizar con
facilidad los elementos de hardware ya instalados.En tercer lugar Windows 95 es un
sistema operativo que permite ejecutar varias aplicaciones a
la vez (multitarea), mientras que en DOS sólo se puede
ejecutar un programa en cada momento.
A sólo siete semanas de su
lanzamiento ya se habían vendido siete millones de copias.
Es la época del despegue de Internet y el WWW, y su
visualizador dominante: el Navigator de Netscape. Microsoft, en
un error poco común de su timonel no se había dado
cuenta que el futuro de las computadoras estaba precisamente en
la red y que Internet significaría toda una
revolución en la rama.
Además de "empotrar" su navegador y
obligar a los fabricantes de PCs a tenerlo en cuenta, ese mismo
año se crea The Microsoft Network y mediante su
incursión acelerada en los medios masivos de
comunicación, surge MSNBC, un año
después.
Windows NT
La misión del equipo de
desarrolladores que trabajó el NT estaba bien definida:
construir un SO que supliera las necesidades de este tipo de
programa para cualquier plataforma presente o futura. Con esa
idea, el equipo encabezado por un antiguo programador de SO para
máquinas grandes, se trazó los siguientes
objetivos: portabilidad en otras arquitecturas de 32 bits,
escalabilidad y multiprocesamiento, procesamiento distribuido,
soporte API y disponer de mecanismos de seguridad clase 2
(C2), según parámetros definidos por el
Gobierno estadounidense.La robustez del sistema, fue un requisito
a toda costa: el NT debía protegerse a sí mismo de
cualquier mal funcionamiento interno o daño externo,
accidental o deliberado, respondiendo de manera activa a los
errores de hardware o software. Debía ser desarrollado
orientado al futuro, prever las necesidades de desarrollo de los
fabricantes de equipos de cómputo, su adaptación
tecnológica no sólo al hardware, sino al propio
software. Todo ello sin sacrificar el desempeño y
eficiencia del sistema. En cuanto al certificado de seguridad, C2
debiera cumplir con los estándares establecidos por
éste como la auditoría, la detección de
acceso, protección de recursos, etc. Así
nació el Windows NT 3.5, devenido 3.51 en el año
1994 y se introdujo poco a poco en un mercado hasta ese momento
desterrado para Microsoft.
El NT 4.0 de nombre código
Cairo, sale a luz en 1996. Por ahí leíamos
que el nuevo sistema operativo cumplía una fórmula
muy sencilla: tomar un NT 3.51, sumarle los service packs 1, 2 y
3 y mezclarlo con una interfaz a lo Windows 95 (incluido su
papelera de reciclaje, algo realmente útil para un sistema
montado sobre NTFS). Un paso más en la integración
del SO con Internet lo dio el NT 4.0 al incluir Internet
Information Server, servidor de Microsoft para soporte WEB, FTP,
etc., como un utilitario más dentro del paquete y que como
la lógica indicaba engranaba con éste a las mil
maravillas al desplazar en eficiencia y velocidad cualquier
producto externo. La cara "Windows 95" se sobrepuso a un inicio
incierto, ya que tuvo que vencer la desconfianza que pudo haber
generado. Téngase en cuenta, que la familia NT estaba
orientada a un cliente en el que la estabilidad y seguridad del
sistema eran el requisito número uno y ello contrastaba
con la experiencia que había tenido el 95. Sin embargo, el
golpe fue genial. Por primera vez, Microsoft mezcló la
solidez con el fácil uso y desterró para siempre el
concepto impuesto hasta entonces de que para las grandes
compañías y las grandes empresas los servidores
debían ser cosa de científicos de bata blanca. El
crecimiento de los usuarios NT se multiplicó desde ese
momento. EL 4.0 se comercializaba en tres versiones:
Workstation, Server y Advanced Server para
tres variantes de clientes tipo, el profesional de las
ingenierías, incluido la informática, la
pequeña y mediana empresas y la gran empresa.
Windows 98
La llegada de Windows 98 no
marcó mucha diferencia visual de su predecesor. Sin
embargo, en el fondo fue todo un mensaje de lo que Microsoft
haría para penetrar en el mercado de Internet y barrer con
los que habían dominado en este tema hasta entonces. La
indisoluble integración del WEB con el escritorio, el
llamado active desktop, la interfaz "HTML", los
canales y la persistente presencia del Explorer 4.0, para
situarse por vez primera a la cabeza de los visualizadores de
Internet, fueron rasgos distintivos de esta versión. El 98
incluyó utilidades para el tratamiento de FAT16 y su
conversión a FAT32, mejor manejo de los discos duros,
manipulación múltiple de varios monitores, una
lista extendida de soporte plug and play, soporte DVD, AGP, etc.
A su vez la promesa de una mejora sustancial en el tratamiento de
los drivers de dispositivos y en la disminución de los
pantallazos azules, que realmente cumplió y mejoró
con la versión SR1 (service release 1), tiempo
después.
Las nuevas características de
Windows 98 ofrecen sacar mucho más partido del PC. Los
programas se ejecutan más rápido, pudiendo ganar
una promedio de un 25% o más de espacio en el disco,
Internet pasa a ser una parte muy importante en el ordenador,
dando un paso gigante en la entrega de contenido multimedia de
alta calidad.
El Windows 98 se ha mantenido hasta
nuestros días y debe ser la última versión
del SO que quede vinculada a lo que fue la línea
MS-DOS-Windows (salvando la variante Millenium o Windows Me que
no ha convencido a nadie) hasta su total sustitución por
Windows 2000 y el XP, en una serie de zigzagueantes cambios que
deja a todos adivinando si debe cambiar o no para la
próxima versión. Pero tras este errático
rumbo, Microsoft persigue sólo una cosa: conservar la
supremacía de los SO de por vida.
Windows Millenium
El 14 de septiembre sale el Windows
Millenium, no como un sucesor del 98, sino como un producto
orientado al usuario doméstico (interfaz de colores, mucha
música y vídeo, soporte para redes LAN
inalámbricas, cortafuegos personales), nada del otro
mundo, con poca perspectiva de supervivencia.
Windows 2000
Se ofrece en 4 clasificaciones:
Windows 2000 Professional, Windows 2000 Server
(anteriormente NT Server), Windows 2000 Advanced Server
(anteriormente NT Advanced Server) y Windows 2000 Datacenter
Server, un producto nuevo, poderoso y muy específico
con posibilidad de manejo de hasta 16 procesadores
simétricos y 64 Gb de memoria física.
Lo destacable de este paso estriba en haber
llevado la robustez, la seguridad y la portabilidad que daba el
NT al mercado masivo de las PCs. Este ofrece una plataforma
impresionante para el trabajo en Internet, Intranet, manejo de
aplicaciones, todo muy bien integrado. La posibilidad de soporte
completo de redes, incluido redes privadas virtuales,
encriptación a nivel de disco o de red y riguroso control
de acceso son otras de sus bondades.
Windows XP (
Experience)
Desde que apareció Windows95
las sucesivas versiones han sido una evolución de la
original, sin embargo en esta ocasión se ha producido un
cambio de mayor envergadura ya que se ha cambiado el
núcleo o Kernel del sistema operativo.
Aunque de cara al usuario no se noten
cambios radicales, se puede decir que Windows XP no es solo una
versión más de Windows sino que supone
prácticamente un nuevo sistema.
Hasta ahora Microsoft disponía de
dos sistemas operativos diferentes, para el entorno personal o
doméstico tenía Windows98 y para el entorno
profesional (o de negocios) el Windows NT/2000.
Con Windows XP se produce una convergencia
entre ambas versiones ya que se ha partido del núcleo del
sistema de Windows 2000 para crear Windows XP y a partir de
ahí se han realizado algunos retoques para diferenciar dos
versiones de Windows XP, una para el ámbito personal
llamada Windows XP Home Edition, y otra para el ámbito
profesional denominada Windows XP Professional.
El principal beneficio de esta estrategia
para los usuarios domésticos va a ser que Windows XP ha
adquirido la robustez y estabilidad de Windows NT/2000, esto debe
suponer que Windows XP se quedará menos veces bloqueado,
habrá menos ocasiones en la que tengamos que reiniciar el
sistema como consecuencia de un error.La mejora para los usuarios
profesionales se debe a que Windows XP tiene mayor compatibilidad
con el hardware de la que gozaba Windows NT/2000.
Windows XP dispone de un nuevo sistema de
usuarios completamente diferente respecto a Windows98. Este nuevo
sistema ha sido heredado de Windows NT/2000.
Ahora se pueden definir varios usuarios con
perfiles independientes. Esto quiere decir que cada usuario puede
tener permisos diferentes que le permitirán realizar unas
determinadas tareas. Cada usuario tendrá una carpeta Mis
documentos propia que podrá estar protegida por
contraseña, un menú de inicio diferente.
También se dispone de una carpeta a la que tienen acceso
todos los usuarios y donde se pueden colocar los documentos que
se quieren compartir con los demás usuarios.
Para pasar de un usuario a otro no es
necesario apagar el ordenador, ni siquiera que un usuario cierre
lo que estaba haciendo, simplemente hay que iniciar una nueva
sesión con otro usuario, más tarde podremos volver
a la sesión del primer usuario que permanecerá en
el mismo estado que la dejó. El sistema se encarga de
manejar a los distintos usuarios activos y sin
interferencias.
El Desarrollo de los Lenguajes y
Técnicas de Programación
Paralelo al desarrollo de la ciencia de la
computación y de las máquinas correspondientes fue
tomando auge la técnica relativa a los métodos de
suministrar las instrucciones a las máquinas con vistas a
realizar un determinado trabajo de cálculo. Fueron dos
mujeres las grandes pioneras de las técnicas e idiomas de
programación, independientemente del aporte que los
hombres también brindaron.
Se reconoce generalmente como la primera
gran pionera en este campo a Lady Ada Augusta Lovelace,
única hija legitima del poeta ingles Lord Byron, nacida en
1815.
Entre los muchos aportes que hizo a la
ciencia de la computación Lady Lovelace, mientras
estudiaba la máquina de Babbage, el más
sobresaliente probablemente fue el que estaba relacionado con el
concepto de lo que hoy llamamos 'lazos' o
'subrutinas'
Lady Lovelace planteó que en una
larga serie de instrucciones debía haber necesariamente
varias repeticiones de una misma secuencia. Y que
consecuentemente debía ser posible establecer un solo
grupo de tarjetas perforadas para este grupo de instrucciones
recurrentes. Sobre este mismo principio trabajaron posteriormente
los conocidos matemáticos ingleses Alan Turing y John Von
Neumann.
En 1989 el único lenguaje aceptado
por el Departamento de Defensa Norteamericano es el llamado
ADA, este en honor de la Condesa ADA Lovelace. ADA
surgió por la necesidad de unificar los más de 400
lenguajes y dialectos que dicho departamento utilizaba en sus
proyectos, de forma que el tiempo y dinero invertidos en el
desarrollo de software para uno de ellos fuera utilizable en otro
de similares características.
Casos legales de
Microsoft
Dominación de mercado y libre
competencia en la nueva economía de la Sociedad de la
Información
Aunque las firmas dominantes en el sector
de las TI no se asemejan a los monopolios tradicionales que han
podido surgir a lo largo de la historia en otros sectores de la
economía, sin embargo el buen funcionamiento de los
mercados exige su sumisión a las leyes de defensa de la
competencia. El juicio que desde el 19 de Octubre enfrenta a
Microsoft con las autoridades antitrust de los Estados Unidos no
es un caso aislado y de naturaleza particular, sino que sus
consecuencias tendrán un impacto indudable sobre las bases
económicas y jurídicas en las que se asienta el
funcionamiento de los mercados de tecnologías de la
información.
Los razonamientos tradicionales del
análisis microeconómico clásico a favor del
ideal de la libre competencia y en contra de las imperfecciones
del mercado, son bastante conocidos. Sin embargo lo que abunda en
la práctica, en el funcionamiento real de la
mayoría de los sectores económicos, son
precisamente las imperfecciones. Los mercados son instituciones
que reúnen a productores y consumidores, y ya Alfred
Marshall (1), el gran economista de la Universidad de Cambridge,
explicó cómo su estructura determina en gran medida
la manera en que actúan las fuerzas encargadas de resolver
la pugna del reparto del valor económico creado, es decir
qué parte del mismo irá al consumidor (utilidad) y
cuál al productor (beneficio).
Los mercados que se aproximan al modelo de
competencia perfecta se acercan al denominado óptimo
paretiano (2), en el sentido que promueven la eficiencia en la
asignación de recursos, pues tienden a equilibrar los
costes marginales de los productores (por tanto sus beneficios)
con las utilidades marginales (excedentes) de los consumidores.
En el polo opuesto se sitúa el monopolio,
desviación extrema del modelo de competencia perfecta, que
es una estructura de mercado que normalmente plantea efectos
negativos para el consumidor, conduciendo a situaciones
ineficientes en términos de cantidades, calidades,
variedades o precios de los bienes y servicios intercambiados.
Entre ambos extremos, la competencia perfecta y el monopolio, se
sitúan un buen número de estructuras de mercado
basadas en modelos intermedios, que pueden denominarse
genéricamente como de competencia imperfecta (3), y que
han sido objeto de estudio preferente por la ciencia de la
economía industrial a partir de la década de 1930.
Estos tipos de mercados imperfectos son los que, como
señalaba anteriormente, tienden a darse en la
práctica en casi todos los sectores productivos y en casi
todos los países desarrollados.
El análisis de las estructuras del
mercado resulta por tanto clave para entender el funcionamiento
de un sector en términos económicos, y para ello no
hay camino más directo que profundizar en el estudio de
cómo se producen los procesos de competencia entre los
distintos agentes, y de cómo funcionan los mecanismos de
regulación establecidos por el marco legal. Estos
últimos son principios del ordenamiento jurídico
que legitiman la intervención de los poderes
públicos, interfiriendo en ocasiones el libre juego de los
intereses de los particulares, con el fin de corregir (4) la
propensión de algunos mercados hacia una
imperfección creciente y por tanto el riesgo de crear
efectos negativos para los consumidores.
La regulación en los países
de economía libre, tiene normalmente como objetivo
establecer medidas que se dirigen a evitar la
concentración del poder de mercado en manos de uno o unos
pocos agentes, lo cual se traduce en la práctica en una
normativa antimonopolio y de defensa de la competencia. Las
autoridades se valen de los mecanismos regulatorios para intentar
atenuar los fallos del mercado y los excesos de poder que en
ocasiones se producen, equilibrando la libertad económica
de los agentes particulares con un marco legal que impide los
abusos de posición dominante. En otras ocasiones la
regulación puede tener objetivos diferentes, como evitar
problemas de información (sector financiero) o hacer
frente a las externalidades (5) (efectos ambientales).
Página anterior | Volver al principio del trabajo | Página siguiente |